本文解决了利益区域(ROI)计算机断层扫描(CT)的图像重建问题。尽管基于模型的迭代方法可用于此问题,但由于乏味的参数化和缓慢的收敛性,它们的实用性通常受到限制。另外,当保留的先验不完全适合溶液空间时,可以获得不足的溶液。深度学习方法提供了一种快速的替代方法,从大型数据集中利用信息,因此可以达到高重建质量。但是,这些方法通常依赖于不考虑成像系统物理学的黑匣子,而且它们缺乏可解释性通常会感到沮丧。在两种方法的十字路口,最近都提出了展开的深度学习技术。它们将模型的物理和迭代优化算法纳入神经网络设计中,从而在各种应用中均具有出色的性能。本文介绍了一种新颖的,展开的深度学习方法,称为U-RDBFB,为ROI CT重建而设计为有限的数据。由于强大的非凸数据保真功能与稀疏性诱导正则化功能相结合,因此有效地处理了很少的截断数据。然后,嵌入在迭代重新加权方案中的块双重前向(DBFB)算法的迭代将在神经网络体系结构上展开,从而以监督的方式学习各种参数。我们的实验显示了对各种最新方法的改进,包括基于模型的迭代方案,深度学习体系结构和深度展开的方法。
translated by 谷歌翻译
Existing training criteria in automatic speech recognition(ASR) permit the model to freely explore more than one time alignments between the feature and label sequences. In this paper, we use entropy to measure a model's uncertainty, i.e. how it chooses to distribute the probability mass over the set of allowed alignments. Furthermore, we evaluate the effect of entropy regularization in encouraging the model to distribute the probability mass only on a smaller subset of allowed alignments. Experiments show that entropy regularization enables a much simpler decoding method without sacrificing word error rate, and provides better time alignment quality.
translated by 谷歌翻译
We explore unifying a neural segmenter with two-pass cascaded encoder ASR into a single model. A key challenge is allowing the segmenter (which runs in real-time, synchronously with the decoder) to finalize the 2nd pass (which runs 900 ms behind real-time) without introducing user-perceived latency or deletion errors during inference. We propose a design where the neural segmenter is integrated with the causal 1st pass decoder to emit a end-of-segment (EOS) signal in real-time. The EOS signal is then used to finalize the non-causal 2nd pass. We experiment with different ways to finalize the 2nd pass, and find that a novel dummy frame injection strategy allows for simultaneous high quality 2nd pass results and low finalization latency. On a real-world long-form captioning task (YouTube), we achieve 2.4% relative WER and 140 ms EOS latency gains over a baseline VAD-based segmenter with the same cascaded encoder.
translated by 谷歌翻译
Providing accurate estimated time of package delivery on users' purchasing pages for e-commerce platforms is of great importance to their purchasing decisions and post-purchase experiences. Although this problem shares some common issues with the conventional estimated time of arrival (ETA), it is more challenging with the following aspects: 1) Inductive inference. Models are required to predict ETA for orders with unseen retailers and addresses; 2) High-order interaction of order semantic information. Apart from the spatio-temporal features, the estimated time also varies greatly with other factors, such as the packaging efficiency of retailers, as well as the high-order interaction of these factors. In this paper, we propose an inductive graph transformer (IGT) that leverages raw feature information and structural graph data to estimate package delivery time. Different from previous graph transformer architectures, IGT adopts a decoupled pipeline and trains transformer as a regression function that can capture the multiplex information from both raw feature and dense embeddings encoded by a graph neural network (GNN). In addition, we further simplify the GNN structure by removing its non-linear activation and the learnable linear transformation matrix. The reduced parameter search space and linear information propagation in the simplified GNN enable the IGT to be applied in large-scale industrial scenarios. Experiments on real-world logistics datasets show that our proposed model can significantly outperform the state-of-the-art methods on estimation of delivery time. The source code is available at: https://github.com/enoche/IGT-WSDM23.
translated by 谷歌翻译
我们介绍了一项对自然语言(NL)推理的人类通知,开放域和逻辑上复杂且多样的数据集,配备了一阶逻辑(fol)注释。对开本由1,435个示例(独特的结论)组成,每个示例与487组前提之一搭配,这些场所作为规则,可用于演绎理由,以理解每个结论的有效性。前提和结论的逻辑正确性是通过其平行注释来确保的,这些注释会自动由我们的FOL推理引擎验证。除了主要的NL推理任务外,对开本中的NL-FOL对自动构成了使用FOL作为逻辑形式的新的NL-FOL翻译数据集。我们对广泛的实验系统地评估了对中型语言模型(BERT,ROBERTA)进行微调的FOL推理能力,并且在大型语言模型(GPT-NEOX,OPT,OPT,GPT-3,Codex)上促成了很少的射击。对于NL-FOL翻译,我们尝试使用GPT-3和Codex。我们的结果表明,公开可用的最强大的大语言模型之一(LLM),GPT-3 Davinci,仅比随机结果略好,而在一部分集的一部分中,该模型尤其不好,并且在预测该模型方面尤其不好。纠正虚假和未知结论的真实价值。我们的数据集和代码可在https://github.com/yale-lily/folio上找到。
translated by 谷歌翻译
神经网络(NNS)也很难有效地学习某些问题,例如奇偶校验问题,即使对于这些问题有简单的学习算法。NNS可以自己发现学习算法吗?我们展示了一个NN体系结构,在多项式时期,可以通过恒定尺寸的学习算法来学习以及任何有效的学习算法。例如,在奇偶校验问题上,NN学习和减少行,这是一种可以简单描述的有效算法。我们的体系结构结合了层和卷积重量共享之间的重复分享,即使网络本身可能具有数万亿个节点,也将参数数量降低到常数。在实践中,我们的分析中的常数太大而无法直接有意义,但我们的工作表明,经常性和卷积NNS(RCNN)的协同作用可能比单独的任何一个更强大。
translated by 谷歌翻译
自动故事生成(ASG)的研究在很大程度上依赖于人类和自动评估。但是,尚无共识在哪些人类评估标准上使用,也没有分析自动标准与它们相关的良好状况。在本文中,我们建议重新评估ASG评估。我们介绍了由社会科学文学精心促进的6种正交和全面的人类标准。我们还提出了汉娜(Hanna),这是一个由10种不同ASG系统制作的1,056个故事的注释数据集。汉娜(Hanna)允许我们定量评估72个自动指标与人类标准的相关性。我们的分析强调了ASG当前指标的弱点,并使我们能够为ASG评估提出实用建议。
translated by 谷歌翻译
在使用自然语言进行交流时保持匿名仍然是一个挑战。即使候选人的数量很高,分析候选人作者的写作风格的标准作者归因技术也达到了不舒服的精度。对抗性风格测定法可以防止作者归因,目的是防止不必要的副词。本文在针对作者身份归因的防御性研究中重现并复制实验(Brennan等,2012)。尽管我们得出结论,由于原始研究中缺乏对照组,我们得出的结论是,我们能够成功地复制和复制原始结果。在我们的复制中,我们发现了新的证据表明,一种完全自动的方法,往返翻译,值得重新检查,因为它似乎降低了已建立的作者归因方法的有效性。
translated by 谷歌翻译
在本文中,我们通过整合具有离散的傅立叶变换(DFT)的复杂值和实值卷积神经网络(CNN)来提出一个新的EEG信号分类框架。所提出的神经网络架构由一个复杂值的卷积层,两个实值卷积层和三个完全连接的层组成。我们的方法可以有效利用DFT中包含的相信息。我们使用两个模拟的EEG信号和一个基准数据集验证我们的方法,并将其与两个广泛使用的框架进行比较。与对基准数据集进行分类的现有方法相比,我们的方法大大减少了所使用的参数的数量并提高了准确性,并显着提高了对模拟的EEG信号进行分类的性能。
translated by 谷歌翻译
当我们扩大数据集,模型尺寸和培训时间时,深入学习方法的能力中存在越来越多的经验证据。尽管有一些关于这些资源如何调节统计能力的说法,但对它们对模型培训的计算问题的影响知之甚少。这项工作通过学习$ k $ -sparse $ n $ bits的镜头进行了探索,这是一个构成理论计算障碍的规范性问题。在这种情况下,我们发现神经网络在扩大数据集大小和运行时间时会表现出令人惊讶的相变。特别是,我们从经验上证明,通过标准培训,各种体系结构以$ n^{o(k)} $示例学习稀疏的平等,而损失(和错误)曲线在$ n^{o(k)}后突然下降。 $迭代。这些积极的结果几乎匹配已知的SQ下限,即使没有明确的稀疏性先验。我们通过理论分析阐明了这些现象的机制:我们发现性能的相变不到SGD“在黑暗中绊倒”,直到它找到了隐藏的特征集(自然算法也以$ n^中的方式运行{o(k)} $ time);取而代之的是,我们表明SGD逐渐扩大了人口梯度的傅立叶差距。
translated by 谷歌翻译